基于航空图像的地图中的本地化提供了许多优势,例如全球一致性,地理参考地图以及可公开访问数据的可用性。但是,从空中图像和板载传感器中可以观察到的地标是有限的。这导致数据关联期间的歧义或混叠。本文以高度信息的代表制(允许有效的数据关联)为基础,为解决这些歧义提供了完整的管道。它的核心是强大的自我调整数据关联,它根据测量的熵调整搜索区域。此外,为了平滑最终结果,我们将相关数据的信息矩阵调整为数据关联过程产生的相对变换的函数。我们评估了来自德国卡尔斯鲁厄市周围城市和农村场景的真实数据的方法。我们将最新的异常缓解方法与我们的自我调整方法进行了比较,这表明了相当大的改进,尤其是对于外部城市场景。
translated by 谷歌翻译
虽然在文献中广泛研究了完整的本地化方法,但它们的数据关联和数据表示子过程通常会被忽视。但是,两者都是最终姿势估计的关键部分。在这项工作中,我们介绍了DA-LMR(Delta-AngeS Lane标记表示),在本地化方法的上下文中具有强大的数据表示。我们提出了一种在每个点中的曲线改变的车道标记的表示,并且在附加维度中包括该信息,从而提供了更详细的数据的几何结构描述。我们还提出了DC-SAC(距离兼容的样本共识),数据关联方法。这是一个启发式版Ransac,通过距离兼容性限制大大减少了假设空间。我们将呈现的方法与一些最先进的数据表示和数据关联方法进行比较,以不同的嘈杂场景。 DA-LMR和DC-SAC在比较方面产生最有前途的组合,精度达到98.1%,并且对于标准偏差0.5米的嘈杂数据召回99.7%。
translated by 谷歌翻译
在现实世界中的对话系统中,生成的响应必须满足几个互锁的限制:内容丰富,真实且易于控制。语言生成中的两个主要范式 - 神经语言建模和基于规则的一代 - 都难以满足这些约束。即使是最好的神经模型,也容易出现信息的幻觉和省略,而现有的基于规则的形式的形式使得很难编写既灵活又流利的语法。我们描述了对话响应产生的混合体系结构,结合了两种方法的优势。该体系结构有两个组件。首先,使用新的正式框架定义的基于规则的内容选择模型,称为数据流转导,该模型使用声明性规则将对话代理的计算(表示为数据流图)转换为代表上下文可接受响应空间的无上下文语法。其次,使用这些语法来限制神经语言模型的输出的受约束解码过程,该过程选择流利的话语。最终的系统在人类对流利,相关性和真实性的评估中的表现都优于基于规则的方法和学识渊博的方法。
translated by 谷歌翻译
卷积神经网络的理论表明,移位阶段性的特性,即移动输入会导致同样移动的输出。但是,实际上,情况并非总是如此。这为场景文本检测带来了一个很好的问题,对于文本检测,一致的空间响应至关重要,无论文本在场景中的位置如何。使用简单的合成实验,我们证明了最先进的完全卷积文本检测器的固有移位方差。此外,使用相同的实验设置,我们展示了较小的体系结构变化如何导致改善的移位等效性和较小的检测器输出变化。我们使用文本检测网络上的现实世界培训时间表来验证合成结果。为了量化转移变异性的量,我们提出了一个基于公认的文本检测基准测试的度量。虽然提出的架构更改无法完全恢复移位均衡性,但添加平滑过滤器可以显着提高公共文本数据集的变化一致性。考虑到小移位的潜在影响,我们建议通过本工作中描述的指标扩展常用的文本检测指标,以便能够量化文本检测器的一致性。
translated by 谷歌翻译
我们介绍了BenchClamp,这是一种评估受约束语言模型解析的基准测试,该基准通过通过限制性解码的启动或微调语言模型来基于输入文本的分析来产生语义输出。目前,预审前语言模型的开发人员基于分类,跨度提取和自由文本生成任务。语言解析在语言模型评估中被忽略,因为处理特定于任务的体系结构和表示的复杂性。最近的工作表明,当输出被限制为有效的语义表示时,从提示或微调的语言模型中产生的发电能力可以很好地表现。台式设备包括无上下文的语法,适用于六个具有不同输出含义表示形式的语义解析数据集,以及一个受约束的解码接口,以生成这些语法覆盖的输出。我们为每个数据集提供低,中和高资源分割,从而可以在不同的数据制度下准确比较各种语言模型。我们的基准测试既支持基于及时的学习又支持微调,并为语言模型开发人员提供了易于使用的工具包,以评估语义解析。
translated by 谷歌翻译
In natural language understanding (NLU) production systems, users' evolving needs necessitate the addition of new features over time, indexed by new symbols added to the meaning representation space. This requires additional training data and results in ever-growing datasets. We present the first systematic investigation of this incremental symbol learning scenario. Our analysis reveals a troubling quirk in building broad-coverage NLU systems: as the training dataset grows, performance on the new symbol often decreases if we do not accordingly increase its training data. This suggests that it becomes more difficult to learn new symbols with a larger training dataset. We show that this trend holds for multiple mainstream models on two common NLU tasks: intent recognition and semantic parsing. Rejecting class imbalance as the sole culprit, we reveal that the trend is closely associated with an effect we call source signal dilution, where strong lexical cues for the new symbol become diluted as the training dataset grows. Selectively dropping training examples to prevent dilution often reverses the trend, showing the over-reliance of mainstream neural NLU models on simple lexical cues. Code, models, and data are available at https://aka.ms/nlu-incremental-symbol-learning
translated by 谷歌翻译
冲突驱动的子句学习(CDCL)是解决命题逻辑令人满意问题的非常成功的范式。这种求解器不是简单的深度优先回溯方法,而是以其他条款的形式了解了发生冲突的原因。但是,尽管CDCL求解器取得了巨大的成功,但仍然对以什么方式影响这些求解器的性能有限。考虑到不同的措施,本文非常令人惊讶地证明,从句学习(不摆脱某些条款)不仅可以帮助求解器,而且可能会大大恶化解决方案过程。通过进行广泛的经验分析,我们进一步发现,CDCL求解器的运行时分布是多模式的。这种多模式可以看作是上面描述的恶化现象的原因。同时,这也表明了为什么从条款删除结合条款学习的原因实际上是SAT解决的事实标准,尽管存在这种现象。作为最终贡献,我们表明Weibull混合物分布可以准确描述多模式分布。因此,在基本实例中添加新的子句具有长期运行时间的固有效果。该洞察力提供了一个解释,即为什么忘记条款的技术在CDCL求解器中有用,除了单位传播速度的优化。
translated by 谷歌翻译
我们探索使用大型预用语言模型作为少量语义解析器。语义解析中的目标是给定自然语言输入的结构化含义表示。但是,培训语言模型以生成自然语言。为了弥合差距,我们使用语言模型来解释进入一个类似于英语的受控的子宫内的输入,可以自动映射到目标含义表示表示。我们的结果表明,只有少量的数据和较少的代码转换为类似英语的代表,我们为快速启动语义解析器的蓝图导致了对多个社区任务的令人惊讶的有效性能,大大超过基线方法也在相同的限制上培训数据。
translated by 谷歌翻译